OpenAI et les géants numériques militent contre le projet de loi californien sur l’IA

OpenAI s’associe aux géants numériques de la Silicon Valley pour peser contre un projet de loi sur l’intelligence artificielle actuellement discuté dans l’État de Californie.

Le texte prévoit que les systèmes d’IA qui coûtent plus de 100 millions de dollars à développer soient équipés de « standards de sécurité de bon sens ».

Un projet qui se traduirait en l’obligation, pour les entreprises concernées, d’implémenter des protocoles de lutte contre les « dommages critiques » que pourraient causer les machines, parmi lesquels des cyberattaques ou le développement d’armes de destruction massive. 


Le texte prévoit aussi la possibilité d’« arrêter totalement » le fonctionnement d’un système, c’est-à-dire de lui construire un « kill switch ».

Aux côtés de Meta et d’Anthropic, OpenAI s’est joint aux efforts de lobbying contre le passage de la loi, le directeur de la stratégie de la start-up expliquant dans une lettre à destination des sénateurs californiens qu’un tel projet serait « mieux géré au niveau fédéral » que via un « patchwork de textes au niveau des États ».

En Europe, OpenAI avait aussi largement œuvré pour l’atténuation de l’AI Act.

Commentaires (12)


Plus la résistance est forte, plus ça permet de mesurer à quel point le texte va dans le bon sens.:fumer:
Faudra que je pense à la citer à ceux qui luttent contre l'affaiblissement du chiffrement de bout en bout :mrgreen:
Ça vaut aussi pour les réformes du système de retraite ?
Le texte prévoit aussi la possibilité d’« arrêter totalement » le fonctionnement d’un système, c’est-à-dire de lui construire un « kill switch ».

Je ne comprends pas vraiment le sens, l'essence de cette phrase. C'est une machine, on peut l'arrêter à tout moment, non ? (i.e. arrêter le processus, arrêter le système, couper l'alim, etc.)

Si on pouvait m'éclairer, merci.
Ce n'est pas juste "une machine", à mon avis tu prévois tellement de redondance dans un tel système, et une telle ferme de serveur (avec des groupes en cas de panne de courant, des réplications dans d'autres datacenter, etc...) que éteindre simplement tout d'un coup est impossible sauf si c'est prévu ^^

eglyn

Ce n'est pas juste "une machine", à mon avis tu prévois tellement de redondance dans un tel système, et une telle ferme de serveur (avec des groupes en cas de panne de courant, des réplications dans d'autres datacenter, etc...) que éteindre simplement tout d'un coup est impossible sauf si c'est prévu ^^
C'est pas faux. Merci

eglyn

Ce n'est pas juste "une machine", à mon avis tu prévois tellement de redondance dans un tel système, et une telle ferme de serveur (avec des groupes en cas de panne de courant, des réplications dans d'autres datacenter, etc...) que éteindre simplement tout d'un coup est impossible sauf si c'est prévu ^^
La définition est dans le texte :
(k) “Full shutdown” means the cessation of operation of any all of the following:
(1) The training of a covered model.
(2) A covered model. model controlled by a developer.
(3) All covered model derivatives controlled by a developer.



Mais dans les faits, vu qu'on parle de modèle hébergé et managé, c'est une coupure du endpoint API.

SebGF

La définition est dans le texte :
(k) “Full shutdown” means the cessation of operation of any all of the following:
(1) The training of a covered model.
(2) A covered model. model controlled by a developer.
(3) All covered model derivatives controlled by a developer.



Mais dans les faits, vu qu'on parle de modèle hébergé et managé, c'est une coupure du endpoint API.
D'une part la plupart des provider vendent une version self hosted ou au moins dédiées (instance dédié sur serveurs séparés).
D'autre part c'est pas parce que que tu coupes l'endpoint d'API que ça coupe l'exécution des serveurs ou de l'apprentissage. Je rappelle juste que la plupart des des IA ne sont plus passives mais on la possibilité d'agir / exécuter des actions, par exemple exécuter des requêtes HTTP.
Ce qui rend d'ailleurs la conception d'un kill swich fiable assez compliqué. Un kill switch logiciel étant probablement vulnérable à une attaque (pour le rendre innopérable), attaque que l'IA elle même pourrait effectuer (avec la base de connaissance de failles, de mots de passe/clés, technique de hacking, ...)
Ils doivent penser à skynet. Mais c'est déjà trop tard de toutes façon.

the_frogkiller

Ils doivent penser à skynet. Mais c'est déjà trop tard de toutes façon.
:eeek2: :eeek2: :eeek2: :eeek2: :eeek2: :eeek2: :eeek2:
"We're doomed, John Connor!!!"
Il n'y a pas que les entreprises qui sont contres, les scientifiques aussi https://x.com/ylecun/status/1827444617232707772
les certains scientifiques.
ça reste de l'opinion.
En l’occurrence, l'opinion du chercheur que tu cite, c'est qu'il est pour la régulation des IA mais uniquement la régulation des produits déployés et non la régulation de la recherche et développement.

Sachant que la loi concerne les systèmes d'IA qui ont couté plus de 100 millions de dollars, donc on parle pas de recherche universitaire non appliquée hein.
Et les système d'IA entretiennent volontairement une frontière floue entre la R&D et le déploiement.
Et considérer que la R&D expérimentale sur de l'IA déployé sur des fermes de serveurs avec des capacités de calcul phénoménale qui ont accés à internet n'est pas un risque, ça reste une opinion douteuse et pas un consensus scientifique.

Ensuite l'opinion d'OpenAI et d'autres personalités (scientifiques ou non) serait qu'il faut légiférer au niveau national et non fédéral. Ce qui est sans doute juste. Mais légiférer au niveau fédéral est probablement préférable que de ne pas légiférer du tout ...
Fermer